地球天文台是一个不断增长的研究领域,可以在短时间预测(即现在的情况下)利用AI的力量。在这项工作中,我们使用视频变压器网络应对天气预报的挑战。视觉变压器体系结构已在各种应用中进行了探索,主要限制是注意力的计算复杂性和饥饿的培训。为了解决这些问题,我们建议使用视频Swin-Transformer,再加上专用的增强计划。此外,我们在编码器侧采用逐渐的空间减少,并在解码器上进行了交叉注意。在Weather4cast2021天气预报挑战数据中测试了建议的方法,该数据需要从每小时的天气产品序列预测未来的8小时(每小时4个小时)。将数据集归一化为0-1,以促进使用不同数据集的评估指标。该模型在提供训练数据时会导致MSE得分为0.4750,在不使用培训数据的情况下转移学习过程中为0.4420。
translated by 谷歌翻译
In this work, we give efficient algorithms for privately estimating a Gaussian distribution in both pure and approximate differential privacy (DP) models with optimal dependence on the dimension in the sample complexity. In the pure DP setting, we give an efficient algorithm that estimates an unknown $d$-dimensional Gaussian distribution up to an arbitrary tiny total variation error using $\widetilde{O}(d^2 \log \kappa)$ samples while tolerating a constant fraction of adversarial outliers. Here, $\kappa$ is the condition number of the target covariance matrix. The sample bound matches best non-private estimators in the dependence on the dimension (up to a polylogarithmic factor). We prove a new lower bound on differentially private covariance estimation to show that the dependence on the condition number $\kappa$ in the above sample bound is also tight. Prior to our work, only identifiability results (yielding inefficient super-polynomial time algorithms) were known for the problem. In the approximate DP setting, we give an efficient algorithm to estimate an unknown Gaussian distribution up to an arbitrarily tiny total variation error using $\widetilde{O}(d^2)$ samples while tolerating a constant fraction of adversarial outliers. Prior to our work, all efficient approximate DP algorithms incurred a super-quadratic sample cost or were not outlier-robust. For the special case of mean estimation, our algorithm achieves the optimal sample complexity of $\widetilde O(d)$, improving on a $\widetilde O(d^{1.5})$ bound from prior work. Our pure DP algorithm relies on a recursive private preconditioning subroutine that utilizes the recent work on private mean estimation [Hopkins et al., 2022]. Our approximate DP algorithms are based on a substantial upgrade of the method of stabilizing convex relaxations introduced in [Kothari et al., 2022].
translated by 谷歌翻译
Bibletts是一种在撒哈拉以南非洲使用的十种语言的大型,高质量的开放语音数据集。该语料库包含每语言最多86个小时的对齐,工作室质量的48kHz单扬声器唱片,从而能够开发高质量的文本到语音模型。代表的十种语言是:Akuapem Twi,Asante Twi,Chichewa,Ewe,Hausa,Kikuyu,Lingala,Luganda,Luganda,Luo和Yoruba。该语料库是由Biblica的Open.Bible Project制作和发行的圣经录音的衍生作品。我们已经对齐,清洁和过滤了原始录音,并还对每种语言的对齐子进行了手工检查。我们为具有Coqui TTS的文本到语音模型提供了结果。数据是根据商业友好的CC-SA许可发布的。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
在啮齿动物的海马复合物中发现位置细胞和其他空间调节神经元的发现对于阐明空间认知的神经基础至关重要。最近,在可能的综合行为中观察到了编码以前经历过的轨迹的神经序列的重播,这可能对快速记忆巩固和行为计划产生影响。基于这些发现和以前的发现,已经提出了一些用于机器人导航和强化学习的有前途的模型。但是,大多数模型都使用精心设计的神经网络,并在简单的环境中进行了测试。在本文中,我们开发了一个自组织模型,结合了位置细胞并重播,并在具有障碍的非平凡环境中证明了其对快速单次学习的实用性。
translated by 谷歌翻译
语言模型预训练的最新进展利用大规模数据集创建多语言模型。但是,这些数据集中大多遗漏了低资源语言。这主要是因为网络上没有很好地表示口语,因此被排除在用于创建数据集的大规模爬网中。此外,这些模型的下游用户仅限于最初选择用于预训练的语言的选择。这项工作调查了如何最佳利用现有的预培训模型来为16种非洲语言创建低资源翻译系统。我们关注两个问题:1)如何将预训练的模型用于初始预培训中未包含的语言? 2)生成的翻译模型如何有效地转移到新域?为了回答这些问题,我们创建了一个新的非洲新闻语料库,涵盖16种语言,其中8种语言不属于任何现有评估数据集的一部分。我们证明,将两种语言转移到其他语言和其他领域的最有效策略是,以少量的高质量翻译数据微调大型预训练模型。
translated by 谷歌翻译
多语言预训练的语言模型(PLM)在高资源和低资源语言的下游任务上表现出令人印象深刻的表现。但是,在预培训期间,尤其是非洲语言中,看不见的语言仍然有很大的表现。适应新语言的最有效方法之一是\ textit {语言自适应微调}(LAFT) - 使用预训练目标对单语言的多语言PLM进行微调。但是,适应目标语言会单独使用大磁盘空间,并限制了由此产生的模型的跨语言转移能力,因为它们已经专门用于单语言。在本文中,我们对17种最重要的非洲语言和其他三种在非洲大陆上广泛使用的高资源语言对17种最具资源的非洲语言进行\ Textit {多语言自适应微调},以鼓励跨语性转移学习。为了进一步专注于多语言PLM,我们从嵌入式层中删除了与MAFT之前的非非洲写作脚本相对应的词汇令牌,从而将模型大小降低了约50%。我们对两个多语言PLM(Afriberta和XLM-R)和三个NLP任务(NER,新闻主题分类和情感分类)的评估表明,我们的方法可以在单个语言上应用LAFT,同时需要较小的磁盘空间。此外,我们表明我们的适应性PLM还提高了参数有效微调方法的零击跨语性转移能力。
translated by 谷歌翻译
由于其在生态调查的潜在适用性,青蛙的声学分类最近已经受到了很多关注。已经提出了鉴定青蛙物种的许多研究,尽管大多数记录的物种被认为是单型批量的。本研究的目的是展示使用音频记录对各种青蛙物种进行分类的方法。更确切地说,首先将连续青蛙录制切成音频片段(10秒)。然后,对于每个十秒钟记录,构造了几个时间频率表示。在此之后,而不是使用手动创建的功能,使用机器学习方法来对青蛙物种进行分类。数据减少技术;主成分分析(PCA)和独立分量分析(ICA)用于在分类之前提取最重要的功能。最后,为了验证我们的分类准确性,使用交叉验证和预测准确性。实验结果表明,PCA提取的特征,以交叉验证和预测准确性实现了更好的分类精度。
translated by 谷歌翻译